在自主机器人导航中,对视觉场所识别(VPR)的次数最佳观看(NBV)计划者的培训是一项重要的任务,典型的方法是使用目标域中收集的视觉体验作为培训数据。但是,对于实时的机器人应用,在日常导航中收集了各种各样的视觉体验。我们通过采用小说{\ it domain-invariant} NBV计划来解决这个问题。假定基于卷积神经网络(CNN)的标准VPR子系统可用,并建议将其域不变状态识别能力转移以训练域不变的NBV计划者。具体而言,我们将CNN模型可用的视觉提示分为两种类型:输出层提示(OLC)和中间层提示(ILC)。 OLC可在CNN模型的输出层上可用,旨在估计机器人的状态(例如,机器人观点)相对于以世界为中心的视图坐标系。 ILC在CNN模型的中间层中可用,作为对以自我为中心的视图的视觉内容(例如显着图像)的高级描述。在我们的框架中,ILC和OLC被映射到国家向量,随后用于通过深入的强化学习来训练多视NBV规划师。使用公共NCLT数据集的实验验证了提出方法的有效性。
translated by 谷歌翻译